Command: CUDA_VISIBLE_DEVICES=1,2 python main.py --model meta-llama/Llama-2-7b-hf --prune_method ria_ours --sparsity_ratio 0.5 --sparsity_type 2:4 --reallocation --save --min_col 1
Last Line: wikitext perplexity 10.5720853805542
---------------------------
Command: CUDA_VISIBLE_DEVICES=1,2 python main.py --model meta-llama/Llama-2-7b-hf --prune_method ria_ours --sparsity_ratio 0.5 --sparsity_type 2:4 --reallocation --save --min_col 2
Last Line: wikitext perplexity 10.794365882873535
---------------------------
Command: CUDA_VISIBLE_DEVICES=1,2 python main.py --model meta-llama/Llama-2-7b-hf --prune_method ria_ours --sparsity_ratio 0.5 --sparsity_type 2:4 --reallocation --save --min_col 3
Last Line: wikitext perplexity 10.623353004455566
---------------------------
Command: CUDA_VISIBLE_DEVICES=1,2 python main.py --model meta-llama/Llama-2-7b-hf --prune_method ria_ours --sparsity_ratio 0.5 --sparsity_type 2:4 --reallocation --save --min_col 4
Last Line: wikitext perplexity 10.667492866516113
---------------------------
Command: CUDA_VISIBLE_DEVICES=1,2 python main.py --model meta-llama/Llama-2-7b-hf --prune_method ria_ours --sparsity_ratio 0.5 --sparsity_type 2:4 --reallocation --save --min_col 5
Last Line: wikitext perplexity 10.731924057006836
---------------------------
Command: CUDA_VISIBLE_DEVICES=1,2 python main.py --model meta-llama/Llama-2-7b-hf --prune_method ria_ours --sparsity_ratio 0.5 --sparsity_type 2:4 --reallocation --save --min_col 6
Last Line: wikitext perplexity 10.784004211425781
---------------------------
Command: CUDA_VISIBLE_DEVICES=1,2 python main.py --model meta-llama/Llama-2-7b-hf --prune_method ria_ours --sparsity_ratio 0.5 --sparsity_type 2:4 --reallocation --save --min_col 7
Last Line: wikitext perplexity 10.64563274383545
---------------------------
Command: CUDA_VISIBLE_DEVICES=1,2 python main.py --model meta-llama/Llama-2-7b-hf --prune_method ria_ours --sparsity_ratio 0.5 --sparsity_type 2:4 --reallocation --save --min_col 8
Last Line: wikitext perplexity 10.716833114624023
---------------------------
Command: CUDA_VISIBLE_DEVICES=1,2 python main.py --model meta-llama/Llama-2-7b-hf --prune_method ria_ours --sparsity_ratio 0.5 --sparsity_type 2:4 --reallocation --save --min_col 9
Last Line: wikitext perplexity 10.541044235229492
---------------------------
Command: CUDA_VISIBLE_DEVICES=1,2 python main.py --model meta-llama/Llama-2-7b-hf --prune_method ria_ours --sparsity_ratio 0.5 --sparsity_type 2:4 --reallocation --save --min_col 10
Last Line: wikitext perplexity 10.57590103149414
---------------------------
